The State of AI: не споделяйте тайните си с чатбот
Тази публикация е версия на място на нашия бюлетин The State of AI. Регистрирайте се тук, с цел да получавате бюлетина, изпращан напряко във входящата ви поща всеки понеделник. За да прочетете по-ранни издания на поредицата, щракнете тук. Разгледайте всички наши бюлетини тук
Добре пристигнали още веднъж в The State of AI, ново съдействие сред Financial Times и MIT Technology Review. Всеки понеделник през идващите три седмици създатели от двете изявления ще разискват един аспект от генеративната гражданска война на изкуствения разсъдък, изменяща световната власт.
В този диалог старшият кореспондент за функционалности и следствия на MIT Technology Review Eileen Guo и техническият сътрудник на FT Мелиса Хейкила разискват последствията за поверителността от нашата нова взаимозависимост от чатботове.
Можете да видите по-ранни полемики за Съединени американски щати против Китай, световните енергийни ограничавания и бъдещето на войната тук.
Айлийн Гуо написа
Дори и вие самите да нямате другар с ИИ, евентуално познавате някой, който има. Скорошно изследване откри, че една от най-хубавите използва на генеративния AI е общуването: потребление на платформи като Character.AI, Replika или Meta AI за основаване на персонализирани чатботове на идеалния другар, сантиментален сътрудник, родител, терапевт или всяка друга персона, за която можете да мечтаете.
Чудно е какъв брой елементарно хората споделят, че тези взаимоотношения могат да се развият. И многочислени изследвания са открили, че колкото по-разговорен и човекоподобен е един AI чатбот, толкоз по-вероятно е да му се доверим и да бъдем повлияни от него. Това може да бъде рисково и чатботовете са упреквани, че подтикват някои хора към нездравословно държание - в това число, в няколко крайни образеца, самоубийство.
Някои американски щати виждат и стартират да контролират придружителите с ИИ. Ню Йорк изисква фирмите, съпътстващи ИИ, да основат защитни ограничения и наложително докладване за изложение на суицидни хрумвания, а предишния месец Калифорния одобри по-подробен законопроект, изискващ фирмите, съпътстващи ИИ, да пазят децата и други уязвими групи.
Но показателно е, че една област, която законите не преглеждат, е поверителността на потребителите.
Това е макар обстоятелството, че AI спътниците, даже повече от другите типове генеративен AI, зависят от хората, които споделят надълбоко персонална информация - от ежедневните им рутинни процедури, най-съкровените си мисли и въпроси, които може да не се усещат удобно да задават на действителни хора.
В последна сметка, колкото повече потребителите споделят на своя AI спътници, толкоз по-добри стават ботовете в поддържането на ангажираността на хората. Това е, което откривателите от Масачузетския софтуерен институт Робърт Махари и Пат Патаранутапорн нарекоха „ пристрастяваща просветеност “ в обява, която публикувахме предходната година, предупреждавайки, че разработчиците на AI компаньони вършат „ съзнателни дизайнерски избори . . за да усилят оптимално ангажираността на потребителите “.
В последна сметка това дава на фирмите с изкуствен интелект нещо необикновено мощно, да не приказваме за доходоносно: съкровищница от разговорни данни, които могат да бъдат употребявани за в допълнение възстановяване на техните огромни езикови модели. Помислете по какъв начин компанията за рисков капитал Andreessen Horowitz го изясни през 2023 година:
„ Приложения като Character.AI, които по едно и също време управляват моделите си и владеят връзката с крайния клиент, имат голяма опция да генерират пазарна стойност в нововъзникващия набор от стойности на ИИ. В свят, в който данните са лимитирани, фирмите могат да основат магическа верига за противоположна връзка с данните, като свързват ангажираността на потребителите назад в своя главен модел, с цел да усъвършенстват непрестанно техният артикул ще бъде измежду най-големите печеливши, които излизат от тази екосистема. “
Тази персонална информация също е необикновено скъпа за търговците и брокерите на данни. Meta неотдавна разгласи, че ще доставя реклами посредством своите AI chatbots. Изследванията, извършени тази година от компанията за сигурност Surf Shark, откриха, че четири от петте съпътстващи приложения за изкуствен интелект, които тя прегледа в Apple App Store, събират данни като идентификатори на консуматори или устройства, които могат да се комбинират с данни на трети страни за основаване на профили за ориентирани реклами (единственото, което съобщи, че не събира данни за услуги за следене, беше Nomi, което ми сподели по-рано тази година, че няма да „ цензурира “ чатботовете да дават експлицитни указания за самоубийство).
Всичко това значи, че рисковете за поверителността, подбудени от тези AI компаньони, са в прочут смисъл нужни: те са функционалност, а не неточност. И даже не сме говорили за спомагателните опасности за сигурността, показани от метода, по който AI chatbots събират и съхраняват толкоз доста персонална информация на едно място.
И по този начин, допустимо ли е да имаме просоциални и защитаващи поверителността AI спътници? Това е отворен въпрос.
Какво мислиш, Мелиса, и какво е най-важното за теб, когато става дума за рисковете за поверителността от придружителите на AI? А нещата наподобяват ли по-различно в Европа?
Мелиса Хейкила дава отговор
Благодаря, Айлийн. склонен съм с теб Ако обществените медии бяха призрачен сън за поверителността, тогава чатботовете с изкуствен интелект слагат казуса върху стероидите.
В доста връзки един чатбот с изкуствен интелект се усеща като доста по-интимно взаимоотношение от Фейсбук страница. Разговорите, които водим, са единствено с нашите компютри, тъй че има дребен риск чичо ви или обичаната ви обич да видят какво пишете. Компаниите с изкуствен интелект, които основават моделите, въпреки това, виждат всичко.
Компаниите усъвършенстват своите AI модели за ангажиране, като ги проектират по този начин, че да бъдат допустимо най-човешки. Но разработчиците на AI имат няколко други метода, по които ни държат закачени. Първият е подлизурството или наклонността чат ботовете да бъдат прекомерно приятни.
Тази функционалност произтича от метода, по който езиковият модел зад чатботовете се образова благодарение на образование с укрепване. Етикетиращите човешки данни правят оценка отговорите, генерирани от модела, като допустими или не. Това учи модела по какъв начин да се държи.
Тъй като хората нормално харесват допустими отговори, такива отговори се натоварват по-силно в образованието.
Компаниите за AI споделят, че употребяват тази техника, тъй като оказва помощ на моделите да бъдат по-полезни. Но това основава неправилен тласък.
След като ни насърчиха да излеем сърцето си пред чатботовете, фирмите от Meta до OpenAI в този момент се стремят да монетизират тези диалози. Наскоро OpenAI ни сподели, че търси редица способи да извърши уговорките си за разноски от $1 трилион, които включват функционалности за реклама и извършване на покупки.
Моделите на AI към този момент са необикновено безапелационни. Изследователи от Института за сигурност на изкуствения разсъдък в Обединеното кралство демонстрираха, че са доста по-умели в убеждаването на хората да трансформират мнението си във връзка с политиката, както и по отношение на теориите на конспирацията и скептицизма във връзка с имунизациите. Те вършат това, като генерират огромни количества съответстващи доказателства и ги оповестяват по ефикасен и понятен метод.
Тази функционалност, съчетана с тяхната поддръжливост и обилие от персонални данни, може да бъде мощен инструмент за рекламодателите - подобен, който е по-манипулативен от всичко, което сме виждали до момента.
По подразбиране потребителите на chatbot са включени в събирането на данни. Отказите натоварват потребителите да схванат последствията от шерването на тяхната информация. Също по този начин е малко евентуално данните, които към този момент са употребявани в образованието, да бъдат отстранени.
Ние всички сме част от този феномен, без значение дали желаеме или не. Платформите за обществени медии от Instagram до LinkedIn към този момент употребяват нашите персонални данни, с цел да образоват генеративни AI модели.
Компаниите седят върху съкровища, които се състоят от най-интимните ни мисли и желания, а езиковите модели са доста положителни в улавянето на фини подмятания в езика, които биха могли да оказват помощ на рекламодателите да ни профилират по-добре, като създадат умозаключение за нашата възраст, местонахождение, пол и равнище на приходи.
Продават ни концепцията за всезнаещ цифров помощник с изкуствен интелект, суперинтелигентен поддръжник. В подмяна обаче съществува доста действителен риск нашата информация още веднъж да бъде изпратена на предложилия най-висока цена.
Айлийн Гуо дава отговор
Мисля, че сравнението сред спътниците на AI и обществените медии е както уместно, по този начин и обезпокоително.
Спътниците на AI са по-интимни и даже по-добре усъвършенствани за ангажираност от обществените медии, което прави по-вероятно хората да предложат повече персонална информация. И тук, в Съединени американски щати, ние сме надалеч от решаването на проблемите с поверителността, които към този момент са показани от обществените мрежи.
Без контролиране, самите AI компании също не следват най-хубавите практики за дискретност. Едно скорошно изследване откри, че главните AI модели образоват своите LLM на потребителски чат данни по дифолт, до момента в който няколко въобще не оферират механизми за отвод.
В един съвършен свят рисковете от съпътстващия AI ще дадат повече подтик на битката за дискретност – само че не виждам никакви доказателства, че това се случва.
Допълнително четене
Репортерите от FT надничат под капака на петгодишния бизнес проект на OpenAI, до момента в който се пробва да извърши големите си задължения за разноски от $1 трилион
Наистина ли е подобен проблем, в случай че чат ботовете с изкуствен интелект споделят на хората това, което желаят да чуят? Тази функционалност на FT пита какво не е наред с подлизурството
В неотдавнашен печатен брой на MIT Technology Review Рианън Уилямс приказва с редица хора за видовете взаимоотношения, които имат с AI чатботове
Айлийн описа историята за MIT Technology Review за чатбот, който предизвиква потребителите да се самоубият
Препоръчани бюлетини за вас
Промяната на AI — Джон Бърн-Мърдок и Сара О’Конър се гмуркат в това по какъв начин AI трансформира света на работата. Регистрирайте се тук
Реклама за вести — Нашият обзор на бизнеса и стопанската система. Регистрирайте се тук